« Pourquoi financer la science si des intelligences artificielles entraînées sur les efforts scientifiques passés fonctionnent si bien ? »


En 1768, l’astronome italien Giuseppe Toaldo (1719-1797) s’est posé une question toute simple : à quoi servent les observations météorologiques ? Que faire des registres qui s’entassaient à l’observatoire de Padoue – quatre décennies de mesures régulières de la température, trois fois par jour, qui n’avaient donné aucun résultat tangible ? Toaldo voulait faire œuvre utile et mettre à profit les observations météorologiques passées pour prédire le futur. Afin de faire parler les registres, il se lança dans un énorme travail d’analyse. Son but : détecter, dans le chaos des mesures des cycles, des structures fixes revenant dans le temps.

La logique sous-jacente au projet était tirée de la gravitation universelle de Newton : les positions respectives de la Terre, de la Lune et du Soleil provoquaient des marées. Pourquoi ne provoqueraient-elles pas aussi des « marées atmosphériques » déterminant les conditions météorologiques ? L’enjeu était immense, car, si son hypothèse se vérifiait, on pourrait utiliser les tables astronomiques pour déduire le futur de l’atmosphère. La météorologie deviendrait alors une science parfaitement prédictive.

Deux siècles et demi plus tard, le projet de Toaldo est peut-être en passe de se réaliser. DeepMind, une filiale de Google, vient de publier les résultats d’une comparaison entre GraphCast, son modèle de prédiction météorologique fondé sur un réseau de neurones, et HRES, le meilleur modèle de prévision actuel au monde, celui du Centre européen pour les prévisions météorologiques à moyen terme, installé à Bologne – c’est ce modèle qui nourrit, entre autres, les prévisions de Météo-France. Le résultat semble sans appel : sur 90 % des objectifs, GraphCast bat HRES à plate couture.

Rupture spectaculaire

En fournissant à l’intelligence artificielle (IA) deux états météorologiques récents (l’heure actuelle et six heures plus tôt), elle prévoit l’évolution des conditions atmosphériques jusqu’à dix jours. Le plus spectaculaire est la réduction des besoins en calcul.

Le superordinateur utilisé par HRES est un monstre de puissance (un million de processeurs, trente pétaflops), et il doit tourner pendant une heure pour résoudre les équations du modèle. A l’inverse, GraphCast obtiendrait ses résultats en une minute sur un ordinateur classique. Le secret : un réseau neuronal entraîné sur trente-neuf ans de données (1979-2017) collectées par le Centre européen pour les prévisions météorologiques.

GraphCast, avec d’autres initiatives du même genre, pose une question qui n’est pas que théorique. Le financement des sciences a essentiellement reposé sur leur utilité potentielle. Toaldo mentionne le soutien qu’il aurait reçu des spéculateurs du Frioul – prévoir les mauvaises saisons permettait d’acheter du blé au bon moment. De même, au milieu du XIXe siècle, c’est en expliquant pouvoir prédire les tempêtes et éviter les naufrages qu’Urbain Le Verrier (1811-1877), le directeur de l’Observatoire de Paris, obtint les financements nécessaires au développement d’une météorologie enfin prédictive, basée sur la rapidité du télégraphe et le suivi « en direct » des dépressions (Le Savant et la Tempête, de Fabien Locher, Presses universitaires de Rennes, 2008). Durant la guerre froide, l’US Air Force a joué un rôle-clé dans le développement de la météorologie avec ses avions, ses ballons-sondes, ses satellites, ses supercalculateurs.

Il vous reste 20% de cet article à lire. La suite est réservée aux abonnés.



Source
Catégorie article Politique

Ajouter un commentaire

Commentaires

Aucun commentaire n'a été posté pour l'instant.